home *** CD-ROM | disk | FTP | other *** search
/ Personal Computer World 2009 February / PCWFEB09.iso / Software / Linux / Kubuntu 8.10 / kubuntu-8.10-desktop-i386.iso / casper / filesystem.squashfs / usr / share / perl5 / LWP / RobotUA.pm < prev    next >
Text File  |  2008-04-07  |  8KB  |  318 lines

  1. package LWP::RobotUA;
  2.  
  3. require LWP::UserAgent;
  4. @ISA = qw(LWP::UserAgent);
  5. $VERSION = "5.810";
  6.  
  7. require WWW::RobotRules;
  8. require HTTP::Request;
  9. require HTTP::Response;
  10.  
  11. use Carp ();
  12. use LWP::Debug ();
  13. use HTTP::Status ();
  14. use HTTP::Date qw(time2str);
  15. use strict;
  16.  
  17.  
  18. #
  19. # Additional attributes in addition to those found in LWP::UserAgent:
  20. #
  21. # $self->{'delay'}    Required delay between request to the same
  22. #                     server in minutes.
  23. #
  24. # $self->{'rules'}     A WWW::RobotRules object
  25. #
  26.  
  27. sub new
  28. {
  29.     my $class = shift;
  30.     my %cnf;
  31.     if (@_ < 4) {
  32.     # legacy args
  33.     @cnf{qw(agent from rules)} = @_;
  34.     }
  35.     else {
  36.     %cnf = @_;
  37.     }
  38.  
  39.     Carp::croak('LWP::RobotUA agent required') unless $cnf{agent};
  40.     Carp::croak('LWP::RobotUA from address required')
  41.     unless $cnf{from} && $cnf{from} =~ m/\@/;
  42.  
  43.     my $delay = delete $cnf{delay} || 1;
  44.     my $use_sleep = delete $cnf{use_sleep};
  45.     $use_sleep = 1 unless defined($use_sleep);
  46.     my $rules = delete $cnf{rules};
  47.  
  48.     my $self = LWP::UserAgent->new(%cnf);
  49.     $self = bless $self, $class;
  50.  
  51.     $self->{'delay'} = 1;   # minutes
  52.     $self->{'use_sleep'} = 1;
  53.  
  54.     if ($rules) {
  55.     $rules->agent($cnf{agent});
  56.     $self->{'rules'} = $rules;
  57.     }
  58.     else {
  59.     $self->{'rules'} = WWW::RobotRules->new($cnf{agent});
  60.     }
  61.  
  62.     $self;
  63. }
  64.  
  65.  
  66. sub delay     { shift->_elem('delay',     @_); }
  67. sub use_sleep { shift->_elem('use_sleep', @_); }
  68.  
  69.  
  70. sub agent
  71. {
  72.     my $self = shift;
  73.     my $old = $self->SUPER::agent(@_);
  74.     if (@_) {
  75.     # Changing our name means to start fresh
  76.     $self->{'rules'}->agent($self->{'agent'}); 
  77.     }
  78.     $old;
  79. }
  80.  
  81.  
  82. sub rules {
  83.     my $self = shift;
  84.     my $old = $self->_elem('rules', @_);
  85.     $self->{'rules'}->agent($self->{'agent'}) if @_;
  86.     $old;
  87. }
  88.  
  89.  
  90. sub no_visits
  91. {
  92.     my($self, $netloc) = @_;
  93.     $self->{'rules'}->no_visits($netloc) || 0;
  94. }
  95.  
  96. *host_count = \&no_visits;  # backwards compatibility with LWP-5.02
  97.  
  98.  
  99. sub host_wait
  100. {
  101.     my($self, $netloc) = @_;
  102.     return undef unless defined $netloc;
  103.     my $last = $self->{'rules'}->last_visit($netloc);
  104.     if ($last) {
  105.     my $wait = int($self->{'delay'} * 60 - (time - $last));
  106.     $wait = 0 if $wait < 0;
  107.     return $wait;
  108.     }
  109.     return 0;
  110. }
  111.  
  112.  
  113. sub simple_request
  114. {
  115.     my($self, $request, $arg, $size) = @_;
  116.  
  117.     LWP::Debug::trace('()');
  118.  
  119.     # Do we try to access a new server?
  120.     my $allowed = $self->{'rules'}->allowed($request->url);
  121.  
  122.     if ($allowed < 0) {
  123.     LWP::Debug::debug("Host is not visited before, or robots.txt expired.");
  124.     # fetch "robots.txt"
  125.     my $robot_url = $request->url->clone;
  126.     $robot_url->path("robots.txt");
  127.     $robot_url->query(undef);
  128.     LWP::Debug::debug("Requesting $robot_url");
  129.  
  130.     # make access to robot.txt legal since this will be a recursive call
  131.     $self->{'rules'}->parse($robot_url, ""); 
  132.  
  133.     my $robot_req = new HTTP::Request 'GET', $robot_url;
  134.     my $robot_res = $self->request($robot_req);
  135.     my $fresh_until = $robot_res->fresh_until;
  136.     if ($robot_res->is_success) {
  137.         my $c = $robot_res->content;
  138.         if ($robot_res->content_type =~ m,^text/, && $c =~ /^\s*Disallow\s*:/mi) {
  139.         LWP::Debug::debug("Parsing robot rules");
  140.         $self->{'rules'}->parse($robot_url, $c, $fresh_until);
  141.         }
  142.         else {
  143.         LWP::Debug::debug("Ignoring robots.txt");
  144.         $self->{'rules'}->parse($robot_url, "", $fresh_until);
  145.         }
  146.  
  147.     }
  148.     else {
  149.         LWP::Debug::debug("No robots.txt file found");
  150.         $self->{'rules'}->parse($robot_url, "", $fresh_until);
  151.     }
  152.  
  153.     # recalculate allowed...
  154.     $allowed = $self->{'rules'}->allowed($request->url);
  155.     }
  156.  
  157.     # Check rules
  158.     unless ($allowed) {
  159.     my $res = new HTTP::Response
  160.       &HTTP::Status::RC_FORBIDDEN, 'Forbidden by robots.txt';
  161.     $res->request( $request ); # bind it to that request
  162.     return $res;
  163.     }
  164.  
  165.     my $netloc = eval { local $SIG{__DIE__}; $request->url->host_port; };
  166.     my $wait = $self->host_wait($netloc);
  167.  
  168.     if ($wait) {
  169.     LWP::Debug::debug("Must wait $wait seconds");
  170.     if ($self->{'use_sleep'}) {
  171.         sleep($wait)
  172.     }
  173.     else {
  174.         my $res = new HTTP::Response
  175.           &HTTP::Status::RC_SERVICE_UNAVAILABLE, 'Please, slow down';
  176.         $res->header('Retry-After', time2str(time + $wait));
  177.         $res->request( $request ); # bind it to that request
  178.         return $res;
  179.     }
  180.     }
  181.  
  182.     # Perform the request
  183.     my $res = $self->SUPER::simple_request($request, $arg, $size);
  184.  
  185.     $self->{'rules'}->visit($netloc);
  186.  
  187.     $res;
  188. }
  189.  
  190.  
  191. sub as_string
  192. {
  193.     my $self = shift;
  194.     my @s;
  195.     push(@s, "Robot: $self->{'agent'} operated by $self->{'from'}  [$self]");
  196.     push(@s, "    Minimum delay: " . int($self->{'delay'}*60) . "s");
  197.     push(@s, "    Will sleep if too early") if $self->{'use_sleep'};
  198.     push(@s, "    Rules = $self->{'rules'}");
  199.     join("\n", @s, '');
  200. }
  201.  
  202. 1;
  203.  
  204.  
  205. __END__
  206.  
  207. =head1 NAME
  208.  
  209. LWP::RobotUA - a class for well-behaved Web robots
  210.  
  211. =head1 SYNOPSIS
  212.  
  213.   use LWP::RobotUA;
  214.   my $ua = LWP::RobotUA->new('my-robot/0.1', 'me@foo.com');
  215.   $ua->delay(10);  # be very nice -- max one hit every ten minutes!
  216.   ...
  217.  
  218.   # Then just use it just like a normal LWP::UserAgent:
  219.   my $response = $ua->get('http://whatever.int/...');
  220.   ...
  221.  
  222. =head1 DESCRIPTION
  223.  
  224. This class implements a user agent that is suitable for robot
  225. applications.  Robots should be nice to the servers they visit.  They
  226. should consult the F</robots.txt> file to ensure that they are welcomed
  227. and they should not make requests too frequently.
  228.  
  229. But before you consider writing a robot, take a look at
  230. <URL:http://www.robotstxt.org/>.
  231.  
  232. When you use a I<LWP::RobotUA> object as your user agent, then you do not
  233. really have to think about these things yourself; C<robots.txt> files
  234. are automatically consulted and obeyed, the server isn't queried
  235. too rapidly, and so on.  Just send requests
  236. as you do when you are using a normal I<LWP::UserAgent>
  237. object (using C<< $ua->get(...) >>, C<< $ua->head(...) >>,
  238. C<< $ua->request(...) >>, etc.), and this
  239. special agent will make sure you are nice.
  240.  
  241. =head1 METHODS
  242.  
  243. The LWP::RobotUA is a sub-class of LWP::UserAgent and implements the
  244. same methods. In addition the following methods are provided:
  245.  
  246. =over 4
  247.  
  248. =item $ua = LWP::RobotUA->new( %options )
  249.  
  250. =item $ua = LWP::RobotUA->new( $agent, $from )
  251.  
  252. =item $ua = LWP::RobotUA->new( $agent, $from, $rules )
  253.  
  254. The LWP::UserAgent options C<agent> and C<from> are mandatory.  The
  255. options C<delay>, C<use_sleep> and C<rules> initialize attributes
  256. private to the RobotUA.  If C<rules> are not provided, then
  257. C<WWW::RobotRules> is instantiated providing an internal database of
  258. F<robots.txt>.
  259.  
  260. It is also possible to just pass the value of C<agent>, C<from> and
  261. optionally C<rules> as plain positional arguments.
  262.  
  263. =item $ua->delay
  264.  
  265. =item $ua->delay( $minutes )
  266.  
  267. Get/set the minimum delay between requests to the same server, in
  268. I<minutes>.  The default is 1 minute.  Note that this number doesn't
  269. have to be an integer; for example, this sets the delay to 10 seconds:
  270.  
  271.     $ua->delay(10/60);
  272.  
  273. =item $ua->use_sleep
  274.  
  275. =item $ua->use_sleep( $boolean )
  276.  
  277. Get/set a value indicating whether the UA should sleep() if requests
  278. arrive too fast, defined as $ua->delay minutes not passed since
  279. last request to the given server.  The default is TRUE.  If this value is
  280. FALSE then an internal SERVICE_UNAVAILABLE response will be generated.
  281. It will have an Retry-After header that indicates when it is OK to
  282. send another request to this server.
  283.  
  284. =item $ua->rules
  285.  
  286. =item $ua->rules( $rules )
  287.  
  288. Set/get which I<WWW::RobotRules> object to use.
  289.  
  290. =item $ua->no_visits( $netloc )
  291.  
  292. Returns the number of documents fetched from this server host. Yeah I
  293. know, this method should probably have been named num_visits() or
  294. something like that. :-(
  295.  
  296. =item $ua->host_wait( $netloc )
  297.  
  298. Returns the number of I<seconds> (from now) you must wait before you can
  299. make a new request to this host.
  300.  
  301. =item $ua->as_string
  302.  
  303. Returns a string that describes the state of the UA.
  304. Mainly useful for debugging.
  305.  
  306. =back
  307.  
  308. =head1 SEE ALSO
  309.  
  310. L<LWP::UserAgent>, L<WWW::RobotRules>
  311.  
  312. =head1 COPYRIGHT
  313.  
  314. Copyright 1996-2004 Gisle Aas.
  315.  
  316. This library is free software; you can redistribute it and/or
  317. modify it under the same terms as Perl itself.
  318.